iT邦幫忙

2024 iThome 鐵人賽

0
AI/ ML & Data

了解AI–道阻且長系列 第 19

Day19遞歸神經網路_1

  • 分享至 

  • xImage
  •  

遞歸神經網路(Recurrent Neural Network, RNN)是一種專門設計用來處理序列數據的神經網路結構,廣泛應用於自然語言處理(如語言翻譯、語音識別)、時間序列分析(如股票預測)、序列生成等領域。RNN 與傳統神經網路不同之處在於,它具有「記憶」功能,能夠考慮到前一個時間步驟的輸入,從而捕捉到序列中的依賴關係。
1.時間步(Time Step)和狀態(State)
RNN 通過引入「時間步」來處理序列數據,模型會根據前一個時間步的輸出和當前的輸入來更新當前狀態,這一特性讓 RNN 能夠保留序列的上下文信息。

  • 輸入序列:輸入數據會按照時間步進行拆解,比如句子的每個詞、時間序列中的每個數值等。
  • 隱藏狀態(Hidden State):每個時間步都有一個隱藏狀態,這個狀態會根據前一個時間步的隱藏狀態和當前輸入進行更新,表示該時間步的記憶。

2.權重共享
RNN 的一個特點是權重共享,即每個時間步的網路結構都使用相同的參數(權重)。這意味著無論序列的長度如何,RNN 模型都可以應用於各個時間步,並且參數的數量不會隨著序列長度的變化而增長。
RNN 的問題
雖然 RNN 能夠捕捉序列依賴關係,但在實際應用中,RNN 存在一些問題,尤其是當序列較長時:

  1. 梯度消失和梯度爆炸問題:當序列長度過長時,RNN 會面臨梯度消失或梯度爆炸的問題,這使得模型難以捕捉到序列中的長期依賴關係。
  2. 短期記憶問題:標準的 RNN 更擅長捕捉短期依賴,而對於長期依賴的處理能力有限。

上一篇
Day18卷積神經網路_2
下一篇
Day20 遞歸神經網路_2
系列文
了解AI–道阻且長30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言